在本文中,我们发展了数字拓扑组的基本理论。基本定义基于组乘法所需的连续性的细节直接导致两个单独的类别。我们定义$ \ np_1 $ - 和$ \ np_2 $ - 数字拓扑组,并研究其属性和代数结构。$ \ np_2 $类别非常限制,我们提供$ \ np_2 $ - 数字拓扑组的完整分类。我们还提供了许多$ \ np_1 $ - 数字拓扑组的示例。我们定义数字拓扑组同态,并描述第一个同构定理的数字对应物。
translated by 谷歌翻译
Artificial Intelligence (AI) has become commonplace to solve routine everyday tasks. Because of the exponential growth in medical imaging data volume and complexity, the workload on radiologists is steadily increasing. We project that the gap between the number of imaging exams and the number of expert radiologist readers required to cover this increase will continue to expand, consequently introducing a demand for AI-based tools that improve the efficiency with which radiologists can comfortably interpret these exams. AI has been shown to improve efficiency in medical-image generation, processing, and interpretation, and a variety of such AI models have been developed across research labs worldwide. However, very few of these, if any, find their way into routine clinical use, a discrepancy that reflects the divide between AI research and successful AI translation. To address the barrier to clinical deployment, we have formed MONAI Consortium, an open-source community which is building standards for AI deployment in healthcare institutions, and developing tools and infrastructure to facilitate their implementation. This report represents several years of weekly discussions and hands-on problem solving experience by groups of industry experts and clinicians in the MONAI Consortium. We identify barriers between AI-model development in research labs and subsequent clinical deployment and propose solutions. Our report provides guidance on processes which take an imaging AI model from development to clinical implementation in a healthcare institution. We discuss various AI integration points in a clinical Radiology workflow. We also present a taxonomy of Radiology AI use-cases. Through this report, we intend to educate the stakeholders in healthcare and AI (AI researchers, radiologists, imaging informaticists, and regulators) about cross-disciplinary challenges and possible solutions.
translated by 谷歌翻译
A new Lossy Causal Temporal Convolutional Neural Network Autoencoder for anomaly detection is proposed in this work. Our framework uses a rate-distortion loss and an entropy bottleneck to learn a compressed latent representation for the task. The main idea of using a rate-distortion loss is to introduce representation flexibility that ignores or becomes robust to unlikely events with distinctive patterns, such as anomalies. These anomalies manifest as unique distortion features that can be accurately detected in testing conditions. This new architecture allows us to train a fully unsupervised model that has high accuracy in detecting anomalies from a distortion score despite being trained with some portion of unlabelled anomalous data. This setting is in stark contrast to many of the state-of-the-art unsupervised methodologies that require the model to be only trained on "normal data". We argue that this partially violates the concept of unsupervised training for anomaly detection as the model uses an informed decision that selects what is normal from abnormal for training. Additionally, there is evidence to suggest it also effects the models ability at generalisation. We demonstrate that models that succeed in the paradigm where they are only trained on normal data fail to be robust when anomalous data is injected into the training. In contrast, our compression-based approach converges to a robust representation that tolerates some anomalous distortion. The robust representation achieved by a model using a rate-distortion loss can be used in a more realistic unsupervised anomaly detection scheme.
translated by 谷歌翻译
我们建议并探讨可以将语言模型作为社会科学研究中特定人类亚人群的有效代理进行研究的可能性。人工智能工具的实践和研究应用有时受到有问题的偏见(例如种族主义或性别歧视)的限制,这些偏见通常被视为模型的统一特性。我们表明,一个这样的工具中的“算法偏见”(GPT-3语言模型)既是细粒度又是人口统计相关的,这意味着适当的条件会导致其准确地仿真来自各种人类的响应分布亚组。我们将此属性称为“算法忠诚度”,并在GPT-3中探索其范围。我们通过将模型调节在美国进行的多项大型调查中的数千个社会人口统计背景故事中调节,从而创建“硅样本”。然后,我们比较硅和人类样品,以证明GPT-3中包含的信息远远超出了表面相似性。它是细微的,多方面的,并反映了特征人类态度的思想,态度和社会文化背景之间的复杂相互作用。我们建议,具有足够算法的忠诚度的语言模型构成了一种新颖而有力的工具,可以促进各种学科的人类和社会的理解。
translated by 谷歌翻译
从较高的计算效率到实现新颖和复杂结构的发现,深度学习已成为设计和优化纳米光子电路和组件的有力框架。但是,数据驱动和基于勘探的机器学习策略在其对纳米光逆设计的有效性方面都有局限性。监督的机器学习方法需要大量的培训数据,以产生高性能模型,并且在设计空间的复杂性鉴于训练数据之外,难以推广。另一方面,基于无监督和强化学习的方法可以具有与之相关的非常长的培训或优化时间。在这里,我们证明了一种混合监督的学习和强化学习方法来实现纳米光子结构的逆设计,并证明这种方法可以减少训练数据的依赖性,改善模型预测的普遍性,并通过数量级缩短探索性培训时间。因此,提出的策略解决了许多现代深度学习的挑战,同时为新的设计方法开辟了大门,这些方法利用了多种机器学习算法来为光子设计提供更有效和实用的解决方案。
translated by 谷歌翻译
由于Covid-19-19疫苗可用,因此没有研究量化不同的灾难疏散策略如何减轻避难所中的大流行风险。因此,我们应用了一个年龄结构化的流行病学模型,称为易感性暴露感染(SEIR)模型,以研究台湾不同的疫苗摄取水平以及在台湾实施的转移方案在多大程度上降低了感染和延迟流行峰值的情况。台湾的转移协议涉及转移因曝光而自我占用的人,从而阻止了他们与集体庇护所的普通公众融合。转移方案,结合足够的疫苗摄取,可以减少相对于没有这种策略的情况,相对于场景,感染的最大数量和延迟爆发。当所有暴露的人的转移是不可能的,或者疫苗的摄取不足时,转移方案仍然很有价值。此外,一组主要由年轻人人口组成的撤离者往往会早日出现大流行峰值,并且在实施转移方案时,多数老年人组的感染比多数老年人多。但是,当不执行转移方案时,多数老年人群体比大多数年轻成人群体高达20%。
translated by 谷歌翻译
可以使用X射线自由电子激光器的强脉冲和短脉冲直接通过单次相干衍射成像直接观察到自由飞行中孤立的纳米样品的结构和动力学。广角散射图像甚至编码样品的三维形态信息,但是该信息的检索仍然是一个挑战。到目前为止,只有通过与高度约束模型拟合,需要对单镜头实现有效的三维形态重建,这需要有关可能的几何形状的先验知识。在这里,我们提出了一种更通用的成像方法。依赖于允许凸多面体描述的任何样品形态的模型,我们从单个银纳米颗粒中重建广角衍射模式。除了具有高对称性的已知结构动机外,我们还检索了以前无法访问的不完美形状和聚集物。我们的结果为单个纳米颗粒的真实3D结构确定以及最终的超快纳米级动力学的3D电影开辟了新的途径。
translated by 谷歌翻译
最近显示外部眼睛照片显示出糖尿病性视网膜疾病和HBA1C升高的迹象。在本文中,我们评估外部眼睛照片是否包含有关其他系统性医疗状况的信息。我们开发了一个深度学习系统(DLS),该系统将外部眼睛的照片作为输入,并预测多个全身参数,例如与肝脏有关的参数(白蛋白,AST);肾脏(EGFR使用无种族的2021 CKD-EPI肌酐方程,尿液ACR);骨与矿物质(钙);甲状腺(TSH);和血数(HGB,WBC,血小板)。开发利用了49,015例糖尿病患者的151,237张图像,在加利福尼亚州洛杉矶县的11个地点接受糖尿病眼镜筛查。评估重点是9个预先指定的全身参数,并利用了3个验证集(a,b,c),涵盖了28,869名患有和没有糖尿病的患者,在加利福尼亚州洛杉矶县和大亚特兰大地区的3个独立地点进行了眼睛筛查。我们将结合了可用临床人口统计学变量的基线模型(例如年龄,性别,种族/种族,糖尿病年)进行了比较。相对于基线,DLS在检测AST> 36,钙<8.6,egfr <60,HGB <11,血小板<150,ACR> = 300和WBC <4时,在检测AST> 36,钙<8.6,Egfr <60,HGB <60,HGB <60,calcium <8.6,Egfr <60,calcium <8.6和wbc <4时,达到了统计学上的显着性能,并且类似于开发集的人口),其中DLS的AUC超过基线的AUC,增长了5.2-19.4%。在验证集B和C方面,与开发集相比,患者人群的差异很大,DLS的表现优于ACR> = 300的基线,而HGB <11升至7.3-13.2%。我们的发现提供了进一步的证据,表明外部眼睛照片包含跨越多器官系统的全身健康生物标志物。需要进一步的工作来研究这些生物标志物是否以及如何转化为临床影响。
translated by 谷歌翻译
在监督机器学习的背景下,学习曲线描述了模型在看不见的数据上的性能如何与用于训练模型的样本数量有关。在本文中,我们介绍了植物图像的数据集,其中包括不同生长阶段的曼尼托巴省大草原共有的农作物和杂草的代表。我们通过Resnet体系结构确定该数据上的分类任务的学习曲线。我们的结果与以前的研究一致,并增加了以下证据:学习曲线受大规模,应用和模型的权力关系的约束。我们进一步研究标签噪声和可训练参数的减少如何影响该数据集的学习曲线。这两种效应都导致模型需要过多的较大训练集,以实现与没有这些效果的相同分类性能。
translated by 谷歌翻译
二进制恒星经历各种相互作用和进化阶段,对于预测和解释观察到的特性至关重要。具有完整恒星结构和进化模拟的二元种群合成在计算上需要大量的质量转移序列。最近开发的二元种群综合代码Posydon结合了梅萨二元星模拟的网格,然后将其插值以模拟大型大型二进制文件。计算高密度直线网格的传统方法对于高维网格,不可扩展,这是一系列金属性,旋转和偏心率的范围。我们提出了一种新的活跃学习算法PSY-CRI,该算法使用数据收集过程中的机器学习来适应和迭代选择目标模拟以运行,从而导致自定义,高性能的训练集。我们在玩具问题上测试PSY-CRIS,发现所得的训练集比常规或随机采样网格所需的模拟更少以进行准确的分类和回归。我们进一步将psy-cris应用于构建Mesa模拟动态网格的目标问题,我们证明,即使没有微调,仅$ \ sim 1/4 $的模拟集也足以足以达到相同的分类精度。当针对目标应用程序优化算法参数时,我们预计将进一步增益。我们发现,仅对分类进行优化可能会导致回归中的绩效损失,反之亦然。降低产生网格的计算成本将使Posydon的未来版本涵盖更多的输入参数,同时保留插值精度。
translated by 谷歌翻译